查看原文
其他

齐俣|我国刑事司法中人工智能与量刑的问题与对策

齐俣 上海市法学会 东方法学
2024-10-10

人工智能正在进入我国刑事司法领域,甚至包括刑事判决领域,这引发了一些问题和担忧。人工智能对法院判决的误解、人工智能无法作出价值判断、算法可能存在偏见、人工智能的“黑箱”特征、公众对人工智能的接受度不高、算法质量的不确定性等等。对此,不应夸大人工智能对“同案同判”的贡献,必须避免人工智能的无限适用。法院将人工智能纳入量刑时应格外谨慎,人工智能不应被用作决策者,而应仅被用作“助理”。此外,算法应该透明化,以便法官能够审查其操作。应成立一个由最高人民法院监督的委员会,以保证人工智能所使用的司法数据的质量,并在全国范围内统一人工智能量刑系统。

一、引言

在信息技术进步的推动下,人工智能在商业、工业、医疗和养老等很多领域取得了长足进步,尤 其是在准确性和效率方面。现在人工智能正在进入刑事司法领域。美国审前阶段应用人工智能系 统预测犯罪可能发生的时间和地点,以及评估保释和量刑中的累犯风险,例如,“公共安全评估”(PSA)和“罪犯矫正替代性制裁分析管理系统”(COMPAS)等项目。一些欧洲国家采用电子案件管理 系统来协助法院管理案件。
随着数字化的普遍趋势,人工智能也引起了我国政策制定者的兴趣。我国提出建立“智慧法庭”,其基础是司法行政数字化以及将人工智能用于包括量刑在内的司法决策。在我国刑事司法的语境下,人工智能是指能分析法官以及辩护律师所提供的信息,并能将其与现有的刑事司法数据联系起来,以协助法官作出决定,例如审查证据和量刑。诉讼程序和法院判决的数字化(即:通过中国裁判文书网来公开判决书)是为了通过提高透明度来改善司法管理,这一点没有争议。相比之下,在判决中引入人工智能,被视为迈向“智慧法庭”的重要一步,受到了一些欢迎,但也引发了一些问题和担忧。本文将研究人工智能在我国量刑领域的发展和应用现状及其主要问题。最后,将提出一些可能的解决方案。

二、人工智能在我国量刑中的应用

(一)我国量刑实践中的巨大差异

不同地区之间类似案件的量刑结果存在巨大差异,一直是一个顽疾,有损刑事司法的公信力。尤其是当公众可以很容易地在网上获取很多判决书时,这种差异会变得更加明显。我国刑法规定了每一种犯罪的最低和最高刑期,刑期范围很广。例如,强奸罪可以被判处3年以上、10年以下有期徒刑,结果加重犯可以被判处10年以上有期徒刑或者死刑。过去,法官没有讨论加重和减轻处罚的情节,而是根据个人喜好和经验,在法律规定的定罪框架内判刑,这导致了两个问题。首先,不同法官的判决差别很大。其次,由于缺乏量刑指南,法官的决定可能是武断的,也会引发腐败。判决书中缺乏说理进一步加剧了这些问题。

(二)最高人民法院量刑指南的制定

在理想的量刑制度中,参与同一案件审判的任何人都会作出相同的判决,任何案件的判决都是可以预测的,这种制度不存在司法偏见和量刑差异的情况。有鉴于此,最高人民法院启动了减少量刑自由裁量权的改革,以实现“同案同判”的目标。这项改革引入了定量的量刑方法,并为法官提供详细的量刑指南。2013年,最高人民法院发布了第一份《关于常见犯罪的量刑指导意见》,详细规定了加重或减轻情节的刑期,例如坦白可减少20%的刑期。2017年又增加了8个罪名以及罚金和缓刑的情况。2021年又增加了4个减轻情节,例如认罪认罚,以此跟上刑事诉讼法的修订。一些省份根据《量刑指南》发布了自己地方的量刑指南,规定了更多的细节。

(三)人工智能在我国量刑中的应用现状

最高人民法院将人工智能的发展视为实现“同案同判”的一种新的可能性。2016年,国务院发布了《国家信息化发展战略纲要》,旨在引入“智慧法庭”,提升包括案件登记、审判、执行和监督在内的各个阶段的数字化水平,促进司法透明度和司法公正。2017年,国务院发布了《新一代人工智能发展规划》,工业和信息化部发布了《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,邀请各部门探索人工智能在各自领域的可能应用。司法部门对中央的大力推动做出了积极反应。2018年,最高人民法院开发了一个基于大数据算法的“类案智能推送系统”,该系统比较法院判决之间的相似性,并生成案件清单,但还未在全国范围内推行。在地方层面,一些法院开发了自己的人工智能系统,以协助审判和量刑,例如北京“睿法官”、上海“206系统”(具有审查逮捕令和证据、评估被告对社会的危险以及协助量刑等多种功能)、江苏“法务云”、重庆“法智云”等。
当然也有私人公司开发的人工智能系统,例如“小包公”网站,基于最高人民法院2021年量刑指南来预测量刑。在该系统中,用户首先选择地域,然后选择罪名,再选择个案的具体情况,例如受害人数量、被告造成的伤害程度,以及犯罪是否以特别残忍的方式实施。下一步是从该系统提供的列表中选择加重或减轻处罚的情节,包括被告人的年龄(如果与量刑有关)(12岁或16岁以下,或75岁以上)、残疾、坦白、自首、认罪认罚、与受害者达成和解协议、损害赔偿、未遂、累犯、有组织犯罪等。有些情况有子类别,例如认罪分为在侦查期间、审查起诉期间、一审或二审阶段认罪。不同情况可能导致增加或减少刑期的幅度不同。该系统进一步缩小了刑期的范围。如果适用,该系统会一并预测罚金。法官可以勾选缓刑选项。该系统还允许用户调整量刑基准的自由裁量权程度(如30%),并改变减刑的百分比。该系统提供了以图表形式展示的实证数据,例如,北京法院判处有期徒刑或缓刑的盗窃案件数量。用户也可以找到系统建议的类似案例。任何人都可以使用该系统,包括法官、检察官、执业律师、被告人和受害人。
我国人工智能量刑系统有三个维度。第一个维度,例如最高人民法院的“类案智能推送系统”,为法官提供与当前案件相似的判决信息;第二个维度,例如“小包公”,这样的人工智能系统更进一步,根据法官选择的因素作出特定的判决;第三个维度,警告法官,他们作出的判决与系统数据库中存储的其他案件存在明显差异。这些系统的核心是基于大数据的算法。它们使用数学模型分析过去的案件和判决,比较它们的文本相似性,提取与量刑相关的因素,对这些因素进行加权,并对其进行量化。算法对这些数据进行分类,并通过比较早期案件中包含的因素和确定相关的量刑规则来生成类似案件的列表或作出判决。通过这种方式,相同的输入被设计成产生相同的输出。人工智能被认为没有个人偏见和无关影响,因此,人工智能系统似乎是实现“同案同判”的完美工具。尽管法官没有义务采用人工智能生成的判决,有些法官只将该系统用作数据库,但可以预见,未来我国刑事司法将会用到更多的人工智能系统,并将更频繁地使用。

三、人工智能在我国量刑中存在的问题

新技术是一把双刃剑。因此,在实施人工智能之前,应深入研究人工智能在量刑中可能产生的影响。

(一)对《量刑指南》的反对意见

《量刑指南》降低了任意判刑的风险,但也过于严格,因为如果满足某些条件,法官就必须在相当窄的范围内判刑。此外,法官会忽视与判决有关但《量刑指南》中没有提及的情况。例如,天津玩具枪案,赵春华在公园里摆设射击气球的摊位,供游客进行有奖游戏,被指控非法持有枪支。一审法院“正确”地适用了法律,判处了三年半有期徒刑,但鉴于她没有危害社会的意图和行为,这显然是不相称的。因此,《量刑指南》可能会限制法官的自由裁量权,从而导致不公平的判决。
此外,一些学者对《量刑指南》的目标即“同案同判”持反对意见。这种观点认为,寻找“相同情况”毫无意义,因为两种情况永远不可能完全相等,就像植物的叶子永远不相同一样。因此,“同案同判”缺乏明确的标准,是一个“伪命题”和“虚构的法治神话”。进一步地,在决定两个案件是否“相同”时,有必要考虑犯罪行为本身之外的因素,包括惩罚目的。刑法提到了惩罚的几个目的,包括报复(刑法第61条)、教育(刑法第72条)、预防犯罪。如果仅对犯罪行为及其造成的伤害进行平等判决,将忽视刑法的教育和预防犯罪的目的。

(二)对案件的误解

由于人工智能只能处理其数据库中已经存在的因素,它可能会错误地识别“相同”案件,如果法院根据新的因素作出判决,人工智能需要一些时间来整合这些因素,因此在此期间,其结果是不准确的。此外,除了因素的数量以外,赋予它们的权重对于确定案件的相似性或相关性也至关重要。我们不可能预先确定每个因素的权重,因为该权重必须与案件相关。在案件中哪个因素是决定性的问题取决于对整个案件的全面理解,人工智能目前无法做到这一点。
人工智能在正确“理解”决策方面也存在问题。中文语言的灵活性加剧了这个问题。在中文的判决书中,同一法律概念可能会有多种不同的表述,这是很常见的现象,例如,“坦白”作为一个减轻处罚的因素,可以用“坦白”“如实供述”“自愿作出有罪陈述”或是其他类似词汇来表述。人工智能不太可能理解这些表述具有相同的含义。人工智能的开发人员也无法提前“教授”人工智能哪些表述具有相同的含义,因为他们无法预见每次判决中的用法。误解也与中文文本中缺乏标点符号有关。例如,如果A、B、C和D各代表一个汉字,则它们将显示为“ABCD”,在判决书中两个汉字之间没有空格。如果法官打算写“AB”和“CD”这两个词,而“BC”组合可能会意外地有不同的含义,那么人工智能可能会产生误解。

(三)人工智能在价值判断方面的失败

要想作出一个公平的判决,法官必须进行价值判断。例如,被告人的罪责不仅取决于他的犯罪动机,还取决于他的犯罪对社会的影响,而这反过来又必须根据刑法所保护的法益进行评估。目前使用的基于数学建模的算法无法适应这种难以量化的价值判断。因此,人工智能要么能够筛选出价值问题,要么直接将它们简化解释为纯粹的事实问题。然而,被算法过滤掉的价值问题可能恰恰与量刑高度相关。由于缺乏正确识别和评估价值问题的有效方法,人工智能可能只在形式层面上产生“正义”,而跳过了实质层面,导致做出不恰当的判决。除非将人工智能适用于不涉及价值问题的案件,但这类案件确实数量很少。

(四)算法可能存在的偏差

在刑事司法中,性别、年龄和社会经济地位等因素可能是一种预先存在的偏见。例如,如果人工智能在评估过去的判决时考虑到性别,人们可能会发现,男性被告因暴力犯罪被判处的刑期比女性被告更长。如果人工智能遵循这种模式,而法官也遵循人工智能的建议,这将导致更多的判决仅仅因为被告是男性就对他们判处更严厉的刑罚。因此,性别作为一个预先存在的偏见因素将在刑事司法系统中被重新“强制执行”。这同样适用于其他可能因属于某一特定群体而受到歧视的因素。
我国法院使用的人工智能主要由私人公司开发,要么是被法院委任开发,要么是自己主动开发。这些公司通常要求为其算法提供商业秘密保护,并拒绝向法院披露算法。因此,法官无法知道人工智能使用了哪些因素、哪些因素与量刑有关,以及每个因素的权重。一些因素,例如性别,可能提高算法的准确性,但同时可能使基于性别的歧视“制度化”。然而,公司可能会将人工智能设计为考虑这些因素,以便更好地将先例与目标案例相匹配,从而提高其产品的准确性。考虑到这种商业利益,公司甚至可能无视法院的指示,“秘密”地采用那些有偏见的因素。除非公司必须披露所使用的算法,否则无法避免这种情况的发生。

(五)人工智能使用的司法数据质量低

1.不完整的司法数据




2014年,最高人民法院推出了“中国判决文书网”,从中可以检索到全国各地法院的判决书。我国法院使用的人工智能的数据来源几乎都是出自这个数据库。然而,由于一些判决因隐私、商业秘密、国家机密、涉及未成年人等原因而不允许在互联网上公开,或已通过和解方式解决,“中国判决文书网”收集的法院判决数量可能只有中国所有判决数量的一半。
公开的判决在所有刑事判决中所占的比例因省份而异。2020年,北京法院共判决刑事案件18703件,其中15519件(83%)可在“中国判决文书网”上检索到。相比之下,西藏自治区法院2020年共判决刑事案件2907件,其中只有1179件(40.56%)可在“中国判决文书网”上检索到。这表明,各省、自治区在“中国判决文书网”中的代表性并不平等。而我国是一个拥有不同民族和多样文化的大国。对于少数民族人口众多的地区,如果只公开相对较少的判决,它们可能会被其他地区的大量数据所覆盖。因此,在人工智能的算法中,西藏自治区等地区的一些特殊的社会习俗和生活方式可能被忽视。有鉴于此,人工智能可能会得出结论,某些省份的人犯下更多的罪行,因为在其数据库中可以找到更多来自该省的判决,因此人工智能可能增加会对该省被告判处更严厉的刑罚。此外,各省高院可以根据本省居民平均收入,设定不同的数额作为经济犯罪的定罪门槛。如果人工智能这样基于当地数据来计算刑期,就无法实现国家层面的“同案同判”目标。
2.有问题的司法数据




算法只有在基于准确数据的情况下才能准确运作。然而,“中国判决文书网”公布的判决质量无法得到保证。
首先,我国刑事司法中有一种特殊现象,即在特定时期对特定类型犯罪采取更严厉的打击行动,例如2018年对有组织犯罪的专项斗争执法,法官会判处比平时更严厉的刑罚。如果人工智能从这种“特殊”判决中吸取经验,即使在专项斗争活动结束后,这些过于严厉的判决所带来的影响仍然挥之不去。

其次,公开的判决并不总是能完整地反映案件的情况。一些地方法院将原始判决中的一些可能引起争议的部分删掉之后再予以公开,而对判决有影响的因素可能恰恰就包括在这些被删除的段落当中。此外,法官在作出量刑决定时可能不会提及他们所考虑的一些因素,例如,地方保护主义、刑事政策、社会舆论压力、上级法院的指示等。

第三,在类似的案件中判处不同的刑罚并不罕见。其中一些相互冲突的判处仍然可以在数据库中找到,可能会混淆人工智能。

第四,很多判决没有任何法律推理,这显然不利于人工智能的机器学习过程。例如,一些刑事判决只描述事实、列出证据,就得出如下结论:“被告A犯了XX罪。根据刑法第XX条,A被判处XX年有期徒刑。”法官没有说明适用刑法第XX条的理由,也没有说明该案特殊情况对量刑的影响。此外,判决中提到的情况在很大程度上仅限于刑法和量刑指南所提及的情况,并且对其适用没有个性化的展开。法官很少解释罚款数额或缓刑期限。一项针对75个刑事判决的实证研究表明,73.3%的样本被判处罚金,但没有给出判处罚金以及具体金额的理由。这75位法官中只有27位(36.0%)给出了量刑的理由。此外,刑事诉讼法第201条规定了检察官在认罪认罚案件中提出的量刑建议具有约束力,法官“原则上”应遵循这些建议。2020年上半年,认罪认罚案件的比例增加到82.2%。但是,越来越多的判决只是说“检察院提出的量刑建议适当……”或“法院采纳检察院提出的量刑建议……”,而没有任何独立的推理。这对提高人工智能的准确性几乎没有任何帮助,因为这没有为人工智能提供任何有用的信息。

现有判决也可能因为法律法规被修改而很快就过时。由于过去几十年我国社会和经济的快速变化,这个问题尤其需要注意。例如,刑法在过去20年中被修订了10多次。此外,很多司法解释被最高人民法院发布、修改并宣布无效。根据旧的法律法规或司法解释判决的案件应当被视为“无效”,并从人工智能的数据库中剔除。

(六)公众接受度不高

以上论述主要集中于人工智能在量刑中的合法性和准确性上。此外,我们还需要考虑人工智能在刑事司法中的使用能否获得公众的支持。
我国法律体系属于大陆法系,刑事诉讼程序采职权主义模式,不同于英美法系的当事人主义模式,但我们也认识到,为了维护司法公信力以及提高公众对法院判决的接受程度,诉讼程序中的公正是很重要的。因此,2013年,最高人民法院通过“阳光司法”工程来提高刑事司法的透明度,例如,引入审判直播。然而,人工智能的广泛使用可能会降低目前刑事司法的透明度。算法的“黑箱”是人工智能决策过程中的关键问题。人工智能将庭审中的所有活动,如辩论、讯问或悔罪,转化为量刑因素列表中的一个个项目。这些因素的权重是由人工智能算法计算的,不受法官的控制,即“法官听取意见,但人工智能做出决定”。由于当事人没有与真正的决策者进行相关互动,参加庭审就失去了实际意义。因此,当事人可能会对程序的公正性失去信任。此外,如果由于人工智能的参与,法官认为他们在量刑中的作用微不足道,他们甚至可能没有动力去认真听审,这反过来又会使情况恶化。因此,要想维持公众对刑事司法的信任,需要保证人工智能的透明度和参与程度与传统程序相同。
四、人工智能在我国未来量刑中的作用

考虑到所有这些问题和不足,人工智能是否仍应被视为一种有用的量刑工具?如上所述,当前社会各界非常热衷于促进人工智能在刑事司法中的使用,并认为人工智能是实现“同案同判”目标的重要工具,这是一种不可逆转的大趋势。因此,我们需要考虑的并不是在量刑中要不要应用人工智能,而应该是在量刑中如何规范人工智能的应用。

(一)保证法官的最终裁决,并将人工智能仅仅用作“助理”

当前社会氛围鼓励法官使用人工智能,但没有明确人工智能应该发挥什么作用,应该在多大程度上使用人工智能。在讨论量刑中人工智能的应用时,首先应该回答这些问题。
我国宪法第131条赋予法院依法独立行使审判权,不受任何行政机关、社会团体和个人的干涉的权力。这一原则是刑事司法制度的基石。人工智能不应损害法官在量刑方面的独立性。人工智能应该只扮演法官的“助理”角色,而不是接管他们的工作。法官没有法律义务去执行人工智能产生的结果。将量刑的最终决定权交给人类法官是对抗人工智能无端干预和保护法官独立性的最佳武器。

为了达到这一目的,“同案同判”的司法改革目标不应被严格解释,也不应被用作过度限制法官自由裁量权的理由。法官可以借助关键词搜索类似案件,向人工智能寻求建议,并将建议的判决作为参考点,以防止明显的差异。在这种情况下,人工智能或多或少起到了“法律数据库”或数据分析师的作用。法官可以审查人工智能得出的结果,以决定这些案件是否真的“相似”或与手头的案件有任何相关性。尽管如此,法官仍应自由决定是否遵循人工智能的建议,还是作出其他决定。

司法自由裁量权是不可或缺的,因为只有法官才能正确理解案件背后的社会价值观。定罪是根据事实作出的决定,而量刑需要法律判断来决定应受谴责、公平、宽恕和人性尊严等等。因此,依靠无法“理解”这些问题的人工智能来最终决定量刑,破坏了刑事司法中必要的人性因素。人工智能在任何领域的应用都会使决策过程失去人性,而刑事司法中的非人性化比其他领域更有害。因此,赋予法官在量刑中作出价值判断的权力至关重要。

此外,为了防止法官在心理上依赖人工智能的结果,人工智能不应被设计为直接提示有期徒刑多少年或多少个月。法官并不总是对自己的决定充满信心,尤其是当他们得出与人工智能建议的结论不同的结论时,因为人工智能通常被认为更准确。为了避免因需要决定他人的命运而产生的心理压力(尤其是死刑案件),法官可能希望只遵循人工智能的建议,抛开他们独立决策的责任,这样事后他们可以将任何错误的决定归咎于人工智能。相反地,如果法官不遵循人工智能的建议,例如判处的刑罚比人工智能建议的刑罚轻,他们可能需要作出详细解释,甚至可能受到纪律处分或被指控腐败。为了避免这种风险,法官可能只会遵循人工智能的建议。有鉴于此,人工智能永远不应直接给出一个具体的判决结果以供法官直接“复制、粘贴”。相反地,人工智能可以建议“类似”的案件,根据以前案件的大数据计算出刑期的大致范围,或者提出加重情节或减轻情节的可能影响。然后,法官需要对量刑作出最终决定,并为此承担责任。此外,为了进一步减少对人工智能判决的心理依赖,即使法官遵循人工智能的建议,也应该有解释的义务。法官不应该简单地辩称“人工智能是这样决定的”,而是应该在具体个案中给出他们所认为的判处这样刑罚的适当理由。

(二)提高司法数据的质量

我国人工智能使用的司法数据存在各种问题:大量判决未公开;不同地区和不同类型的犯罪被夸大或低估;使用不同的法律术语;判决缺少说理;有些判决是矛盾的或过时的。由于使用高质量的数据是可靠的人工智能的先决条件,因此应该改进和扩展“中国裁判文书网”数据库。例如,最高人民法院应要求各地法院完整、持续地公开其判决,只有有限的例外,例如当案件涉及国家机密、商业机密或个人利益时。2018年,最高人民法院发布了《关于加强和规范裁判文书释法说理的指导意见》,要求各级法院将判决书说理质量作为评估法官表现的一个因素。然而,由于该司法解释主要适用于法律问题的推理和事实调查,因此它与量刑的相关性实属有限。此外,该司法解释未能就怎么样才算是好的说理提供具体明确的标准,因此我们无法根据该司法解释来评估判决书说理的质量。最高人民法院应考虑进一步要求法官提及判决所考虑的所有因素,并详细解释这些因素是如何影响判决的。只有涵盖了这些信息,判决书才能成为培训人工智能的优秀素材。此外,立法机关可以考虑在法官法中规定法官对量刑进行说理的义务,这将为最高人民法院促进判决书说理工作提供坚实的法律基础。
培训法官并使他们能够在判决中提出实质性理由,这是一项长期任务。培训课程不能在短时间内产生效果,但人工智能在量刑实践中的应用不能无限等待。因此,最大限度地利用现有数据是在短时间内改进人工智能的最实用的解决方案。运行“中国裁判文书网”数据库的最高人民法院部门可以考虑成立人工智能工作委员会,由经验丰富的法官、学者和作为解决技术问题的IT工程师组成。该委员会的法律专家应不断审查该数据库中公开的判决,以确保人工智能使用的判决书的质量。他们应标记那些被上级法院撤销的判决、因立法修正或司法解释而过时的判决、适用法律错误的判决,以及没有实质说理的判决。使用“中国裁判文书网”数据的人工智能不应将这些标记的判决导入到他们的系统中。

(三) 提高算法的透明度并确保其可审查性

在量刑中使用人工智能面临的主要问题之一是人工智能算法的“黑箱”。法官审查人工智能算法中使用的数学模型的能力是非常有限的。因此,提高算法的透明度对于实体正义和程序正义都至关重要。对于实体正义,披露算法可能使用的因素,这样法官可以审查这些因素中是否存在偏见以及可能导致属于某些群体的被告被判处不合理的更高刑罚。对于程序正义,人工智能的透明决策过程与法官做出的最终决定相结合,可以提高公众对刑事司法公正性的信任。对法官施加实质性解释的义务也会减少算法量刑的“黑箱”弊端。
算法的透明度应该从两个方面得到保证。首先,人工智能的开发人员应该清楚地了解算法可能使用的因素。目前,人工智能用于量刑的因素主要是量刑指南中提到的因素。然而,这并没有涵盖刑法中的所有犯罪类别。因此,人工智能应首先为《量刑指南》中未列出的罪名制定量刑指南。如果进一步的研究表明某些因素不应在量刑中被考虑,则应指示人工智能的开发人员相应地重写算法。在法院使用该系统之前,应该要求开发人员向他们披露算法,并检查他们的指示是否得到了遵守。其次,每当人工智能提出量刑建议时,都应该披露他们的理由,包括所使用的因素和每个因素的权重。只有掌握了这些信息,法官才能审查人工智能给出的建议是否恰当,是否需要另行考虑其他因素,以及是否应该调整每个因素的权重。这对于保证公平判决非常重要,因为人工智能可能会忽视其程序中未包含的因素,并可能误解法院判决之间的文本相似性。

(四) 通过质量控制集中人工智能系统

在推行“智慧法院”的过程中,各地法院努力尝试自己的人工智能系统,尤其是在北京和上海等高度发达的地区,没有法院愿意在这场“竞争”中落后。这样做的结果是,不同法院使用具有不同功能的人工智能系统,无法形成一个全国统一的系统。这种多样性对“同案同判”产生了负面影响。人工智能系统的分散化不利于保证人工智能的质量。因此,可以考虑在最高人民法院和上述人工智能委员会的指导下,逐步完成各地法院人工智能的最终统一。此外,委员会应为法官编写一本关于该系统使用的手册,包括关于准确率和该系统固有风险的信息。然后,法官可以单独决定他们希望在量刑决定中在多大程度上遵循人工智能的建议。应提示在少数民族居民占多数的地区工作的法官,他们所在的地区在数据库中的代表性可能不足,他们在做出判决时应考虑到当地的特殊性。人工智能委员会还应为法官提供培训课程,使他们熟悉人工智能系统。为了不断改进该系统,该系统应该具有“错误报告”功能,允许法官向人工智能委员会报告任何错误或不准确的结果。
结语

我国刑事司法领域正在逐步引入人工智能,目的是减少量刑中的司法偏见,实现“同案同判”的目标。未来,人工智能将在我国量刑实践中发挥越来越大的作用。虽然这带来的益处非常可观,但是有意或无意的滥用所造成的危害也不容忽视。人工智能缺乏基于价值判断做出决策的能力,算法的不透明性降低了公众对刑事司法公正性的信任。因此,人工智能对“同案同判”目标的积极影响不应被夸大,必须避免人工智能的无限应用。鉴于人工智能在我国刑事司法系统中的应用仍处于初级阶段,现在是设计人工智能量刑方式的最佳时机。

我国政策制定者应注意规范人工智能在刑事司法中的使用,并应谨慎地将人工智能纳入量刑。人工智能不应被用作决策者,而应仅被用作“助理”,为法官提供信息并帮助他们作出量刑决定。在任何情况下,最终决定权都应掌握在法官手中。此外,算法应该透明化,以便法官能够审查其操作。应成立一个由最高人民法院监督的委员会,以保证“中国裁判文书网”的司法数据质量,并为整个中国法院系统运行一个集中的人工智能系统。所有这些措施都将有助于最大限度地利用司法数据,并引入公平、准确和高效的量刑制度。

往期精彩回顾

目录|《新兴权利》集刊2024年第1卷

王镕洪|生成式人工智能背景下个人信息保护的困境与破解

徐宇翔|生成式人工智能发展背景下的金融消费者个人信息保护问题研究

杨顺|ChatGPT等生成式人工智能对学术诚信的挑战及应对

贺誉洁|政府数智化转型背景下数据可信发展的基础研究——基于生成式人工智能嵌入的分析

张洪滔|智能手术医疗事故中医师刑事责任的认定

上海市法学会官网

http://www.sls.org.cn


继续滑动看下一个
上海市法学会 东方法学
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存